PHYSIQUE - Les moyens de l’expérimentation


PHYSIQUE - Les moyens de l’expérimentation
PHYSIQUE - Les moyens de l’expérimentation

L’observation des phénomènes physiques et de leur modification sous l’action de facteurs appropriés est rendue quantitative grâce à la définition d’une grandeur caractéristique du phénomène étudié et au choix pour celle-ci d’une valeur de référence: l’unité (cf. système d’UNITÉS). La comparaison entre cette grandeur et l’unité donne un nombre, ou «mesure», qui permet l’établissement ou la vérification de relations mathématiques entre le phénomène et ses causes. Cette comparaison est effectuée par un dispositif particulier au phénomène et que l’on appelle un instrument de mesure. Ainsi, la mesure de la longueur d’un objet s’effectue par comparaison visuelle avec l’unité de longueur tracée sur une règle. Le dispositif expérimental est ici particulièrement simple, puisqu’il ne fait appel qu’à l’objet et à un instrument ne nécessitant pas de réglages, la règle.

Cette mesure ne correspond pas cependant au problème posé au physicien, mais plutôt à un problème commercial courant, car il n’y a aucune loi physique à découvrir dans cette mesure. Le physicien se demande comment varie la longueur de l’objet en fonction de facteurs physiques, tels que la température ou la pression. Il faut donc que l’objet à l’étude soit enfermé dans une cellule de mesure destinée à le placer dans des conditions définies et à permettre une variation séparée des différents facteurs physiques. Cette cellule comprend des dispositifs mesurant chacun des paramètres variables ou contrôlables.

D’autre part, les résultats obtenus ne sont reproductibles et significatifs que si l’objet mesuré est lui-même parfaitement bien défini et reproductible. On arrive ainsi à la notion d’échantillon , élément de matière soumis à l’expérimentation et préparé dans les conditions les plus rigoureuses.

Enfin, si le physicien cherche à augmenter la finesse de ses résultats ou à observer des variations de plus en plus petites, la comparaison visuelle, pour reprendre l’exemple précédent, des traits de la règle avec les dimensions de l’échantillon devient insuffisante. On peut améliorer les résultats de la mesure grâce à une visée optique ou à un enregistrement qui pourra être observé dans des conditions plus favorables, ou enfin en éliminant totalement le facteur humain par l’emploi d’un ordinateur. Le dispositif de perception ou d’enregistrement du résultat donné par l’instrument de mesure devient un élément essentiel de la précision. L’accroissement de ses possibilités réagit à son tour sur l’appareil de mesure qui, pour améliorer ses performances, peut être modifié de fond en comble. Ainsi, la comparaison avec une règle peut devenir la comparaison avec une longueur d’onde par voie interférométrique.

La physique expérimentale a tout d’abord été fondée sur les seuls sens humains. Par l’ouïe, la vue et le toucher, l’homme a observé la nature, noté des phénomènes, constaté des corrélations entre eux, et il en a déduit des relations qualitatives de cause à effet. Sous l’influence de facteurs économiques, il a abordé l’aspect quantitatif qui exige à la fois la définition d’une unité et celle d’un instrument de mesure: chaîne d’arpenteur, balance, par exemple. Il a ensuite cherché à améliorer ses propres perceptions et, lorsque Galilée a mis au point sa lunette, une partie inconnue du ciel s’est ouverte devant lui.

Mais la physique expérimentale n’est réellement née que lorsque l’observateur s’est décidé à devenir acteur en choisissant l’un des multiples facteurs naturels et en agissant de l’extérieur pour le modifier et observer son influence sur les autres.

Enfin, les perceptions sensorielles de l’expérimentateur, uniques sources d’information, ont été progressivement remplacées par l’ordinateur, qui contrôle automatiquement l’expérience et traduit les résultats des mesures par une formule mathématique, un texte ou un affichage graphique.

La cellule de mesure

La diversité des dispositifs employés dans une cellule de mesure est aussi vaste que la physique elle-même. On pourrait distinguer:

– les enceintes qui permettent de contrôler l’environnement de l’échantillon vis-à-vis des facteurs mécaniques usuels tels que la pression, la température et la présence de produits chimiques;

– les sources électriques et magnétiques avec leurs accessoires donnant des courants électriques ou un champ électrique ou magnétique;

– les sources d’irradiation électromagnétique (radio, optique, rayons X) ou d’irradiation corpusculaire (canon à électrons, accélérateur de particules).

Les dispositifs utilisés réagissent parfois très fortement sur les caractéristiques de l’instrument de mesure et réciproquement.

Tout d’abord, les conceptions mêmes des deux dispositifs sont liées. Dans certains cas (phénomènes linéaires), la cellule peut imposer des conditions globales à travers lesquelles l’instrument de mesure effectue un choix grâce à des propriétés de sélectivité, ou, au contraire, la sélectivité peut être exercée au niveau même de la cellule. Par exemple, pour l’étude de l’absorption optique d’un échantillon lumineux en fonction de la longueur d’onde, il est possible de choisir entre deux solutions: ou bien la source est blanche et irradie l’échantillon avec toutes les longueurs d’onde à la fois et l’instrument qui suit comporte un spectroscope très sélectif qui disperse la lumière et permet d’étudier indépendamment chaque longueur d’onde transmise; ou bien la source est suivie d’un monochromateur qui fournit à la cellule de mesure une longueur d’onde unique variable à la commande, réservant à l’instrument de mesure situé après l’échantillon la comparaison entre l’intensité transmise et l’intensité incidente: cet instrument doit alors être aussi peu sélectif que possible. Cette deuxième formule, qui sépare les fonctions entre cellule de mesure et instrument, est préférable parce que plus souple et susceptible de plus de précision, quoiqu’elle soit plus compliquée et plus coûteuse.

D’autre part, les performances de la cellule sont définies par la précision des instruments utilisés. La stabilité des facteurs imposés et leur définition même doivent être au moins égales à la précision de l’instrument. La résonance magnétique nucléaire dans des produits organiques liquides, par exemple, permet de distinguer à l’intérieur d’une molécule des protons soumis à des champs magnétiques internes différant entre eux de quantités aussi faibles que 10 size=18 en valeur relative. L’expérience se faisant dans une cellule de mesure, où l’échantillon est soumis à un champ magnétique continu intense, il est évident que celui-ci doit être stable et homogène, dans tout le volume de l’échantillon, à mieux de 10 size=18. Cette exigence limite l’ensemble de la mesure.

Enfin, dans le cas où l’échantillon est sensible à plusieurs facteurs qu’il est très difficile de maintenir fixes et dont on craint que la dérive au cours de l’expérience ne modifie le résultat de manière incontrôlable, il est commode de moduler le paramètre variable autour des valeurs successives choisies, à une fréquence imposée convenable. La seule partie de l’indication de sortie de l’instrument se trouvant modulée à la même fréquence correspond à la réponse de l’échantillon au paramètre choisi. Un filtre de fréquence permet aisément d’éliminer les dérives parasites. Cette méthode de modulation a en outre l’avantage de permettre l’emploi d’amplificateurs alternatifs simples et, de ce fait, elle s’est considérablement répandue depuis 1960 environ.

L’échantillon

Le produit sur lequel va porter l’expérience, autrement dit l’échantillon, doit être suffisamment bien défini pour que les lois observées soient reproductibles. Les exigences, suivant les cas, peuvent porter sur les dimensions géométriques, la quantité de matière ou la composition physico-chimique.

Un usinage convenable et une pesée précise permettent de répondre aux deux premières exigences avec la précision des appareils de mesure qui devront étudier le phénomène. Par contre, les exigences physico-chimiques (pureté chimique et pureté de la phase physique) peuvent être extrêmement contraignantes et font souvent de la réalisation des échantillons l’un des problèmes les plus difficiles de la physique expérimentale. La difficulté concernant la pureté chimique n’est réellement apparue que depuis 1945 environ, car auparavant les physiciens s’étaient surtout intéressés à des phénomènes linéaires dans lesquels l’effet des impuretés se traduit par un signal parasite proportionnel à leur concentration, donc négligeable. Ainsi, lorsqu’on étudie la diffraction des rayons X ou l’activation d’un échantillon par les neutrons, on obtient les spectres caractéristiques de chaque constituant de l’échantillon. Non seulement les spectres des impuretés sont faibles et distincts et ne gênent pas la mesure principale, mais on peut s’en servir pour caractériser et même doser ces impuretés. Il en a été tout autrement lorsque les études des phénomènes coopératifs, non linéaires, ou à l’échelle de quelques atomes, ont été abordées. C’est ainsi qu’une concentration de quelques parties par million d’impuretés telles que le phosphore ou l’arsenic modifie complètement les propriétés électriques du germanium. De même, il suffit d’une pression d’oxygène gazeux aussi faible que 10 size=19 mm de mercure pour que la structure d’une surface métallique monocristalline de silicium soit profondément modifiée en quelques minutes (on ne sait réaliser des vides aussi poussés que depuis la fin des années 1960).

Une grande partie de l’étude des solides exige la réalisation d’échantillons dont la constitution et l’orientation cristalline sont bien définies, c’est-à-dire qu’ils sont à l’état de monocristaux de dimensions macroscopiques appréciables (quelques millimètres cubes). C’est un problème qui est loin d’être résolu de manière générale.

L’instrument de mesure

Le rôle de l’instrument de mesure est d’observer une grandeur et de la comparer à un étalon incorporé ou non à l’appareil. Il est souvent nécessaire, lorsqu’on observe de faibles variations de la grandeur à mesurer, de procéder à une amplification mécanique, optique ou électronique du signal. En raison de sa souplesse et des coefficients d’amplification élevés qu’elle permet, la méthode électronique a peu à peu supplanté toutes les autres.

Les qualités que l’on exige d’un instrument de mesure sont la fidélité, la sensibilité et la justesse.

La fidélité

Les indications de l’appareil doivent être constantes lorsqu’il mesure plusieurs fois des quantités identiques ou la même quantité. Cela exige que les réglages soient reproductibles, qu’il n’y ait pas de dérives invisibles ni incontrôlables et qu’il existe un procédé de mesure permettant d’éliminer les défauts inévitables.

La fidélité de la balance classique à deux bras, par exemple, est obtenue si, lorsqu’on pèse deux fois la même masse, on atteint l’équilibre dans chacun des cas où l’on dépose les mêmes masses marquées dans l’autre plateau. Or, si les masses ne sont pas déposées chaque fois rigoureusement au même endroit des plateaux, ce qui est probable, le point d’application du plateau sur le couteau du fléau peut changer; or, si les couteaux latéraux et centraux ne sont pas parallèles lors de la construction, un tel déplacement modifie la longueur utile du fléau, et l’équilibre ne pourra être réalisé qu’avec des masses marquées différentes.

Dans de très nombreux dispositifs électriques ou électroniques, on oppose à la grandeur à mesurer une grandeur connue, jusqu’à obtenir l’égalité qui se traduit par le retour au zéro d’un appareil de mesure. Les divers circuits utilisés sont parcourus par des courants et dégagent de la chaleur. L’équilibre de température est rarement atteint simultanément par les divers éléments des circuits, dont les caractéristiques varient en outre de façon différente avec celle-ci. Il s’ensuit un déplacement du zéro, ce dernier mettant parfois plusieurs heures à se stabiliser à la valeur qui correspond aux étalonnages. Dans d’autres cas, l’appareil ne peut fonctionner correctement qu’entre certaines limites de température extérieure, voire à la condition qu’il soit installé dans une pièce à température constante.

La sensibilité

La sensibilité représente la plus petite quantité que l’appareil est capable de discerner. On l’exprime le plus souvent par un chiffre qui donne la plus petite valeur de la grandeur mesurée dont la variation provoque un «changement observable» à la sortie de l’appareil: ainsi, la sensibilité d’une balance s’exprime en milligrammes ou en microgrammes, suivant son type; celle d’un galvanomètre s’exprime en microampères et celle d’un récepteur électronique en microvolts à l’entrée. La quantité ainsi définie est la sensibilité absolue et, bien que très souvent employée, elle ne signifie pas grand-chose. En effet, il suffit souvent d’un changement très petit dans le système d’observation ou dans l’appréciation de l’observateur pour que ce chiffre varie dans des proportions importantes. Dans une balance ordinaire, par exemple, il peut suffire d’utiliser une aiguille indicatrice plus fine et d’observer son mouvement avec une loupe pour apprécier l’effet de surcharges beaucoup plus légères; de même, si un galvanomètre traduit sa rotation par celle d’un pinceau lumineux réfléchi sur son équipage mobile (méthode de Poggendorf), il suffit de mesurer le déplacement du spot lumineux à une distance augmentée pour changer la sensibilité absolue. C’est pourquoi on préfère généralement définir une sensibilité relative , égale au rapport entre une valeur de la grandeur mesurée et la valeur correspondante de l’indication de sortie de l’appareil. On obtiendra donc, pour la balance, une sensibilité en degrés de rotation du fléau par gramme de surcharge. Pour le galvanomètre, la sensibilité s’exprimera en millimètres de déplacement du spot à un mètre du galvanomètre par microampère. Pour l’amplificateur électronique, on utilisera le rapport entre la tension de sortie et la tension d’entrée: contrairement aux cas précédents, les grandeurs d’entrée et de sortie sont ici de même nature et leur quotient est un nombre sans dimensions qu’on appelle le gain. Dans les cas où il s’agit de mesurer des propriétés intrinsèques de la matière, il faut, bien entendu, rapporter le résultat à la «quantité de matière» qui participe à la mesure: longueur du trajet optique dans le cas d’absorption lumineuse, masse de l’échantillon dans les mesures magnétiques, nombre de noyaux dans certaines mesures nucléaires. Il est souvent intéressant d’exprimer la sensibilité par le rapport entre l’indication de sortie de l’instrument de mesure et la masse utilisée. Une telle notion est capitale lorsque les échantillons ne peuvent être obtenus qu’en très faibles quantités, comme c’est le cas pour de nombreuses substances biologiques: c’est ainsi que les procédés de résonance électronique permettent d’observer des échantillons ne renfermant pas plus de 1012 atomes paramagnétiques (alors qu’une molécule-gramme de la substance en renferme 6 憐 1023) et que la spectroscopie des électrons Auger utilise des échantillons de 10 size=18 gramme.

Les causes qui limitent la sensibilité d’un appareil sont, pour la plupart, d’origine énergétique. On améliore donc la sensibilité d’un appareil soit en diminuant les pertes d’énergie lors du fonctionnement (frottements mécaniques pour la balance par exemple), soit en faisant appel à une source extérieure d’énergie (amplificateur). De toute manière, le frottement entre solides doit être évité dans un appareil de bonne qualité, car il provoque des forces qui restent indéterminées au repos et conduisent à des équilibres mal déterminés réduisant la fidélité.

On va examiner les étapes successives qui permettent d’accroître la sensibilité d’un appareil simple, par exemple un ampère-mètre ou un galvanomètre. Le dispositif est constitué d’un aimant fixe et d’une bobine de fil, le cadre, qui peut pivoter autour d’un axe mais est retenu au zéro par un ressort. Lorsque le courant parcourt le cadre, celui-ci prend les propriétés d’une aiguille aimantée et tend à tourner plus ou moins sous l’action de l’aimant fixe. Les appareils les moins précis utilisent comme pivot un axe monté entre deux paliers, avec tous les frottements que cela comporte. Les milli- ou les micro-ampèremètres possèdent des pivots d’horlogerie, très pointus aux deux bouts et serrés par des coupelles très dures, en rubis par exemple: les frottements se produisent alors uniquement au niveau de la pointe, sur l’axe, et leurs moments sont donc négligeables. De plus, le ressort est très faible et le cadre déplace une aiguille fine devant un miroir pour éviter la parallaxe. Dans les galvanomètres qui mesurent couramment 10 size=18 ou 10 size=110 ampère, il faut renoncer à tout pivot et le cadre est maintenu par deux fils de torsion qui servent également d’amenée de courant et de ressort. Pour augmenter leur sensibilité, il faut réduire l’effet de rappel du fil qui s’oppose à la déviation magnétique et pour cela diminuer son diamètre; on atteint cependant une limite, puisque le cadre doit être supporté par le fil. Au-delà de 10 size=111 A environ, l’énergie magnétique devient insuffisante pour permettre toute mesure et l’on doit complètement changer de procédé en utilisant un amplificateur à courant continu. Pour atteindre 10 size=115 à 10 size=116 A, il devient nécessaire de moduler le courant à mesurer par un hachage à basse fréquence, afin de profiter des possibilités des amplificateurs alternatifs et de procéder à une démodulation synchrone (cf. infra ) au niveau de la lecture. Grâce à un ensemble de dispositions aussi diverses, il est donc possible de mesurer des courants électriques dans une gamme couvrant plus de vingt décimales. Cet exemple permet de mettre en évidence deux limitations de la sensibilité tout à fait fondamentales.

C’est tout d’abord la perturbation que l’appareil de mesure apporte au phénomène mesuré lui-même. Dans le cas d’une mesure de courant, l’appareil doit être introduit en série et, par suite, il ajoute sa résistance à celle du circuit, ce qui modifie le courant. C’est pourquoi il n’est pas possible, sauf dans des cas très spéciaux, d’améliorer la déviation magnétique en augmentant le nombre de spires du cadre. Les conditions requises sont inversées lorsqu’un appareil de conception semblable est utilisé en voltmètre: il doit en effet être branché en parallèle entre deux points et doit dériver dans son cadre un courant réduit au minimum. Sa résistance intérieure doit être aussi forte que possible, mais sa sensibilité doit rester très grande pour qu’un courant même très faible lui permette de dévier. La qualité d’un tel appareil se chiffre alors en ohms par volt. Ici encore, on franchit une étape décisive en remplaçant le galvanomètre par un amplificateur, dispositif dont la résistance d’entrée est très élevée et qui n’a pas besoin d’utiliser pour sa déviation une énergie soustraite au circuit mesuré.

La deuxième limitation a des origines physiques et ne peut d’aucune manière être transgressée. Elle définit une sensibilité limite théorique. Dans la version la plus sensible du galvanomètre, plusieurs phénomènes moléculaires apparaissent et traduisent la discontinuité de la matière: l’agitation des molécules du gaz entourant le cadre et le caractère statistique du flux de photons lumineux utilisés pour détecter la rotation provoquent un tremblement erratique du spot et créent une incertitude sur sa position. Le frottement interne des atomes métalliques constituant le fil de torsion intervient également, avec tous les inconvénients qu’il entraîne. Dans la version utilisant un amplificateur, on atteint une autre limite commune à tous les dispositifs électroniques: c’est le bruit d’agitation thermique des électrons dans la résistance d’entrée, autre manifestation de la discontinuité de la matière. Dans le circuit d’entrée, les fluctuations du mouvement des électrons créent un signal qui se surajoute à celui que l’on veut mesurer; c’est alors l’ensemble de ces deux termes qui est amplifié. Il est bien clair que si le phénomène intéressant est noyé dans le bruit à l’entrée, il le sera également à la sortie. Or, ce bruit ne dépend que de la température absolue et de la bande passante de l’amplificateur, deux paramètres qu’il est souvent impossible de modifier. On peut donc dire qu’en aucun cas il ne sera possible de détecter un signal dont la puissance est inférieure à celle du bruit P, soit en watts:

k étant la constante de Boltzmann (égale à 1,38 憐 10 size=123J/K), T la température thermodynamique et 益 la bande passante en hertz.

Certains appareils utilisent des amplificateurs fonctionnant à basse température, au prix d’un accroissement de la complexité. D’autres profitent d’artifices tels que la démodulation synchrone pour réduire la bande passante [cf. MODULATION ET DÉMODULATION].

Dans les appareils de mesures optiques, la limite théorique de la sensibilité provient du phénomène de diffraction: l’objectif d’un microscope ne donne pas, d’un point, une image ponctuelle, mais une tache dont les dimensions sont de l’ordre de la longueur d’onde utilisée. Si l’on cherche à distinguer deux points très voisins – ce qui caractérise la sensibilité (ou «pouvoir séparateur» du microscope) –, la limite est obtenue lorsque les deux taches données par l’objectif empiètent l’une sur l’autre et ne peuvent être vues séparément. Quelle que soit l’amplification ultérieure liée au grandissement de l’oculaire, les deux taches confondues ne pourront plus être séparées.

La justesse

La justesse traduit l’exactitude de la comparaison entre la grandeur mesurée et l’étalon de même nature choisi. Elle est essentielle dans les appareils absolus qui donnent des valeurs directement dérivées des unités fondamentales de longueur, masse et temps. Cependant, dans la plupart des cas, cette comparaison résulte d’un étalonnage interne ou externe.

Ainsi, dans le cas de la balance classique, la justesse de la comparaison de la masse inconnue avec les masses marquées est assurée par l’égalité des deux bras du fléau. Il est toutefois possible de remplacer la mesure absolue par un étalonnage extérieur, en permutant la masse inconnue avec des masses marquées dont la valeur donnera la mesure (double pesée). La plupart des appareils de précision moyenne disposent d’un étalonnage interne: c’est ainsi qu’un ampèremètre porte, directement sur ses graduations, des valeurs en ampères que le constructeur a déterminées par comparaison avec un appareil étalon. Toute évolution dans le temps des propriétés des constituants du système (vieillissement des résistances, hystérésis, oxydation) change la réponse de l’appareil et oblige à reprendre l’étalonnage.

Les appareils de précision soit disposent d’un étalon interne, qui peut être utilisé avant chaque expérience pour vérifier la graduation, soit exigent l’emploi d’un étalon extérieur qui est permuté avec la grandeur à mesurer. Les repères portés par l’appareil ont alors pour seul objet de permettre la comparaison des grandeurs suivant une loi d’interpolation définie et si possible linéaire.

Bien entendu, la justesse d’un étalonnage n’est déterminée qu’avec une certaine marge d’erreur, ou précision, qu’il est essentiel de connaître. En général, les erreurs de fidélité et de justesse doivent rester inférieures à la limite de sensibilité de l’appareil.

Perception de la mesure

La manière la plus simple de «lire» le résultat d’une mesure est d’observer le déplacement d’un repère devant une graduation. Ce repère peut être situé dans le même plan que la graduation (pied à coulisse par exemple) ou revêtir la forme d’une aiguille se déplaçant au-dessus de l’échelle graduée (balance, ampèremètre). La valeur lue dépend alors de la position de l’œil et l’on doit, si l’appareil prétend à une précision suffisante, éliminer l’erreur dite de parallaxe en adjoignant une bande réfléchissante à la graduation. L’expérimentateur place alors son œil de manière à voir confondues l’aiguille et son image ; sa visée est normale au plan de la graduation. Dans le cas de déplacements inférieurs au pouvoir séparateur de l’œil, l’usage d’instruments d’optique (loupe, lunette et microscope) permet d’améliorer le système oculaire de perception sans en modifier le principe, qui conserve un côté subjectif d’appréciation humaine et des limitations dues aux qualités physiologiques de l’observateur (acuité, fatigue).

Un progrès important a été fait par l’emploi, comme récepteur, de la plaque photographique qui permet de conserver la trace de la mesure et de stocker en très peu de temps un grand nombre d’informations. Ainsi, au lieu de pointer successivement, avec une lunette, toutes les raies spectrales données par un spectromètre optique, il devient possible de fixer toutes les raies à la fois sur un seul cliché photographique. Cette grande capacité d’enregistrement conduit encore à préférer ce procédé à des systèmes plus récents. Cependant, la photographie ne correspond qu’à une transposition des résultats: il faut ensuite lire la plaque, la «dépouiller». On utilise pour cela des visées optiques ou des enregistrements photoélectriques comme ceux qui sont décrits ci-dessous. Mais il faut tenir compte, si l’on pointe la position d’images, des variations de dimensions de la plaque avec son degré d’humidité, et, si l’on mesure des intensités lumineuses, de la courbe de noircissement photographique qui est loin d’être linéaire. Il faut donc effectuer toute une série de corrections, dont la technique est à présent bien connue. Une autre propriété intéressante de la plaque photographique est la suivante: supposons qu’un spot de galvanomètre apparaisse sur une échelle animée d’un tremblement erratique autour de sa position de mesure, du fait du bruit de fond ou de diverses instabilités. Il est difficile, à l’œil nu, de trouver sa position moyenne et l’on doit accepter toute une plage d’incertitude. Si l’on photographie ce spot avec un temps de pose convenable, la plage d’incertitude ne sera pas également noircie et la position la plus fréquente sera facile à pointer. La plaque effectue d’elle-même la moyenne des observations pendant la durée de la pose. Ce caractère d’intégration se révèle souvent précieux.

À côté des caractères précédents, il convient de rappeler le rôle détecteur de la plaque photographique vis-à-vis des radiations ionisantes (rayons X, rayons 塚, particules chargées). Dans ces cas-là, la plaque peut jouer à elle seule le rôle de l’appareil de mesure et de l’enregistreur: c’est ainsi que l’on étudie des réactions de particules à très grande énergie (particules cosmiques) en expédiant en altitude, par ballons, de gros cubes de gélatine photographique, à l’intérieur desquels les trajectoires et les chocs apparaissent après développement.

Il est cependant certain que le véhicule le plus commode pour l’information est l’électricité. Dans la plupart des cas, c’est maintenant sous forme d’une grandeur électrique que l’appareil de mesure délivre son résultat. Les développements de la cellule photoélectrique permettent de traduire les grandeurs optiques en données électriques et différents capteurs en font de même pour les grandeurs mécaniques. La lecture finale est donc effectuée par un galvanomètre, et l’on en conserve les informations en munissant le cadre d’un stylet inscripteur frottant sur un papier à déroulement uniforme. Une telle solution ne peut cependant être adoptée que pour des mesures très grossières (mesures mécaniques directes telles que celles du baromètre enregistreur par exemple), car le frottement de la plume sur le papier introduit une erreur inadmissible. C’est pourquoi les appareils modernes continuent à utiliser un galvanomètre à miroir dont la rotation provoque le déplacement d’un spot lumineux. Celui-ci est recueilli sur un chariot mobile le long de l’échelle, muni de cellules photoélectriques et de moteurs qui l’obligent à suivre les mouvements du spot. Ce chariot porte la plume qui inscrit ainsi le mouvement du spot, sans prélever d’énergie au galvanomètre lui-même, on obtient directement la courbe de variation du phénomène en fonction du paramètre choisi. Bien entendu, ce dispositif ne peut mesurer que des courants continus ou lentement variables le long de la courbe. Or, il est beaucoup plus facile d’amplifier des courants alternatifs dans les instruments de mesure. C’est pourquoi on module souvent le paramètre variable à l’aide d’une source sinusoïdale à fréquence fixe de faible amplitude. La grandeur à mesurer se manifeste alors sous forme d’une sinusoïde dont l’amplitude est proportionnelle à la pente de la courbe désirée et dont la fréquence est fixe. Après amplification dans des dispositifs qui peuvent être à bande étroite (élimination d’une partie du bruit de fond), on fait «battre» ce signal avec une référence issue du système de modulation, donc de même fréquence, et le battement à fréquence nulle peut être reçu par le galvanomètre. Cette démodulation, qui est linéaire, s’appelle détection synchrone ou lock in . La bande passante finale qui fixe le niveau du bruit devient le temps de réponse du galvanomètre. Celui-ci peut être rendu très long, mais alors il demandera beaucoup de temps pour atteindre chaque point d’équilibre et l’expérience devra durer fort longtemps. C’est finalement la stabilité de tout l’appareillage et de ses annexes qui limitera cette possibilité d’accroître la sensibilité.

Un tout autre procédé électrique utilise la technique des comptages. La plage dans laquelle doit varier le paramètre physique pour l’enregistrement de la courbe résultat est découpée en intervalles fixes, et l’on donne successivement au paramètre sa valeur moyenne dans ces intervalles. À chaque étape, le résultat est mis sous forme d’impulsions, dont le nombre est proportionnel à l’amplitude du signal de mesure. Ce nombre est compté dans une série de canaux dont chacun correspond à l’un des intervalles fixes choisis pour le paramètre. À la fin de l’opération, chaque canal donne un nombre qui correspond à l’ordonnée de la courbe cherchée, le numéro du canal constituant son abscisse. L’intérêt de la méthode réside dans la possibilité de répéter n fois l’opération, chacun des canaux totalisant les n réponses de la même façon que la plaque photographique intègre les flux lumineux. La théorie des fluctuations montre que l’erreur due au bruit est alors divisée par ‘n . Ici encore, la limite du nombre de passages est conditionnée par la stabilité des appareils. Ce procédé, d’abord utilisé en physique nucléaire, a débordé cette discipline et s’est très largement généralisé. Il est en effet le seul à donner les résultats sous forme numérique, c’est-à-dire prêts à être traités informatiquement.

Il est relativement rare en effet que l’enregistrement d’une courbe expérimentale donne directement le résultat physique attendu. On doit souvent introduire des corrections compliquées, qui peuvent varier point par point, puis interpréter la courbe en déterminant, suivant les cas, sa pente, sa surface, ses maxima, etc. Il est donc particulièrement commode d’obtenir le résultat brut de la mesure sous forme, non d’une courbe, mais d’un enregistrement numérique que l’on traitera directement, avec un programme de dépouillement convenable, dans un ordinateur. Il est préférable, bien sûr, de relier directement l’appareil de mesure à l’ordinateur pour obtenir les résultats en temps réel , c’est-à-dire au fur et à mesure de l’expérience, et pouvoir ainsi retoucher les réglages de l’ensemble expérimental si une anomalie apparaît. Cette utilisation d’un ordinateur «en ligne» permet enfin, sur un programme préétabli, de boucler en retour l’ordinateur sur l’appareil de mesure, afin qu’il décide lui-même s’il y a lieu de retoucher les réglages et qu’il commande en conséquence les organes adéquats.

Précision de la mesure

Le travail de l’expérimentateur n’est pas terminé lorsqu’il a obtenu un résultat, tant qu’il n’a pas déterminé les limites de validité de celui-ci. Il doit chiffrer non seulement l’erreur, généralement bien connue, due aux limites de sensibilité de l’appareil (cf. MESURE - Méthodologie de la mesure), mais aussi les erreurs introduites dans la réalisation de la cellule de mesure, dans l’obtention d’un échantillon bien défini, dans l’enregistrement des données et le déroulement des calculs. L’appréciation de ces divers éléments n’est pas toujours facile.

L’obtention d’un résultat avec le maximum de précision n’est pas forcément recherchée. Bien des théories physiques sont nécessairement approchées, car elles négligent délibérément des termes de faible importance. Il suffit donc, pour les confronter avec l’expérience, de mesures effectuées dans des conditions bien déterminées, mais sans rechercher la précision. Plus tard, lorsqu’on voudra expliquer les termes de faible importance numérique, il faudra au contraire rechercher les performances.

Toute l’histoire de la physique est à cette image. C’est grâce à la faible précision des premières mesures que les grandes lois simples ont été découvertes. C’est ensuite le perfectionnement des techniques qui a montré leurs limites de validité puis permis d’interpréter les écarts. Mais si la dilatation des gaz avait d’emblée été mesurée avec les moyens actuels, la complexité des résultats aurait peut-être masqué la loi des gaz parfaits.

Encyclopédie Universelle. 2012.